NVIDIA Orin亮相 邊緣運算效能再進化

作者: 吳心予
2022 年 04 月 07 日

NVIDIA針對人工智慧(AI)推論的效能需求,推出新的MLPerf基準NVIDIA Orin。NVIDIA Orin是基於NVIDIA Ampere架構的低功耗SoC,有助於提升邊緣運算加速器的效能。同時MLPerf推論2.0強化資料中心與邊緣運算應的多元應用,在邊緣端離線的情況下,支援多數據流(Multi stream),可收集不同情境中的多個感測器與鏡頭的數據。

在邊緣AI,預先生產的NVIDIA Orin版本,在六項效能測試值中,有五項測試排名第一,且運算速度比上一代的Jetson AGX Xavier快五倍,能源使用效益提高兩倍。目前已經可以在Jetson AGX Orin開發套件中使用NVIDIA Orin,用於機器人與車用系統。

Jetson AGX Orina模組與開發套件

只要伺服器及裝置配備NVIDIA GPU,包含Jetson AGX Orin,就是市場上少數能運算全部共六個MLPerf基準的邊緣加速器。JetPack SDK則是已經在資料中心與雲端獲得認可的軟體堆疊(Stack),Jetson AGX Orin透過結合JetPack SDK,可以運算整個NVIDIA AI平台。

軟體方面,TensorRT有助於優化AI模型,Triton推論伺服器則增加部署效率。Triton支援不同的架構與GPU網路,也能整合CSP提供的服務。效能方面,Triton可以協助伺服器中的GPU提升99~100%的效能,CPU則能提升107%。

標籤
相關文章

NVIDIA人工智慧技術MLPerf測試大獲全勝

2021 年 07 月 05 日

NVIDIA AI推論效能/能源效率均佳

2021 年 09 月 30 日

高速運算向前衝 NVIDIA Quantum-2/Jetson AGX Orin亮相

2021 年 11 月 10 日

NVIDIA企業伺服器A30/A10 GPU  效能領先MLPerf

2021 年 04 月 27 日

NVIDIA數位孿生/Jetson AGX Orin開發板亮相

2022 年 03 月 23 日

英飛凌Wi-Fi方案補足NVIDIA邊緣AI平台連線需求

2022 年 06 月 01 日
前一篇
Vicor於WCX 2022展示高功率密度汽車解決方案
下一篇
群聯/希捷建立長期夥伴關係 聯手搶攻企業儲存市場